Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a segunda parte do Capítulo 3, que é publicado em 5 partes.
Seleção e tradução de Júlio Marques Mota
8 min de leitura
Texto 41 D – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 3 – Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (2/5)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
em 2 de Junho de 2025 (original aqui)
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
—-
Capítulo 3: Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (2/5)
2. As soluções à medida propostas pela IA para problemas sociais profundos expulsam as competências locais existentes
A indústria de tecnologia há muito tende ao tecnossolucionismo, insistindo que a competência técnica é substituível por outras formas de conhecimento e pode oferecer soluções mais rápidas ou escaláveis [76]. Mas o que diferencia a onda atual de elevadas expetativas na IA é que o ramo da IA procura agora reformular problemas sociais — até as suas causas mais profundas — para afirmar a IA como a solução universal. Isso tem o efeito de minar a autoridade de profissionais capacitados que atuam nessas áreas.
Na educação, o tecnossolucionismo assume várias formas: terceirização de atividades educacionais, desde deteção de plágio até avaliação e atribuição de notas; implementação de tecnologias que se têm mostrado persistentemente prejudiciais aos resultados educacionais e às condições de ensino; e degradação da perceção pública da educação, com consequente desvalorização do trabalho dos profissionais deste setor [77]. No esforço de reduzir custos, administradores universitários que adotam essas ferramentas marginalizam os profissionais que estão no centro da prática educativa. Esse padrão pode já ser observado em diversos setores.
Muitos educadores lembram-se dos fracassos da última onda de soluções tecnológicas, os cursos online abertos e massivos (MOOCs), que prometiam democratizar o acesso à educação oferecendo cursos online gratuitos para milhares de estudantes. As universidades reduziram a dimensão dos seus departamentos e investiram em infraestrutura tecnológica e física para produzir vídeos online. “Agora os MOOCs perderam o seu prestígio”, escreve Tressie McMillan Cottom, “mas, na maioria dos casos, os especialistas não regressaram” [78].
Em vez disso, iniciativas de IA ocuparam o seu lugar no ciclo seguinte do tecnossolucionismo: a iniciativa ChatGPT Edu da OpenAI oferece às universidades dos EUA acesso a um conjunto de ferramentas projetadas para “levar a IA para os seus campus em grande escala” [79]. A OpenAI recentemente fez parceria com o governo da Estónia para levar o ChatGPT Edu a todas as escolas de ensino secundário do país [80]. A administração Trump emitiu uma ordem executiva incentivando a adoção de IA desde a educação primária até ao ensino secundário por meio de parcerias público-privadas, com o objetivo de treinar os estudantes em IA e incorporar a IA em tarefas relacionadas com o ensino, desde o estudo até à avaliação [81]. A California State University, a maior universidade pública de quatro anos dos EUA, anunciou recentemente um acordo de 16 milhões de dólares com a OpenAI, Google, Microsoft, Nvidia e outros para criar um “sistema de ensino superior potencializado por IA” [82]. Em alguns casos, as escolas estão a migrar totalmente para um modelo de aprendizagem centrado em IA: a Alpha School apresenta-se como uma “escola privada com IA”, onde as crianças podem encontrar-se com um tutor de IA para “dominar os estudos em duas horas” e depois usar o tempo restante para procurar satisfazer as suas paixões de vida” [83].
O Distrito Escolar Unificado de Los Angeles, o segundo maior dos Estados Unidos, realizou uma experiência desastrosa com um robô de conversação de IA, “Ed”, da AllHere, uma empresa que rapidamente faliu depois de ser revelado que tinha comprometido dados sensíveis de estudantes, incluindo informações de educação especial e de disciplina estudantil [84]. Às vezes, a IA está a ser adicionada discretamente em segundo plano, via as integrações no Canvas (o sistema de gestão de aprendizagem utilizado por muitas universidades). Escolas e distritos escolares acabam por reduzir os empregos — muitas vezes por não renovarem contratos de funcionários temporários, que não aparecem nas estatísticas de despedimentos — para gastar milhões de dólares em tecnologias que, no fim, não cumprem as suas promessas, deixando na sua caminhada estudantes e educadores frustrados.
Essa recente iniciativa de integrar sistemas de IA em larga escala nas escolas é particularmente nefasta porque ameaça minar o propósito da educação, trocando o processo demorado de aprendizagem pela “eficiência”. Como escrevem os professores Sonja Drimmer e Christopher J. Nygren em How We Are Not Using AI in the Classroom, sistemas de IA em larga escala, como os LLMs, são bons em reconhecimento de padrões e previsão de símbolos, mas não em aprender [85]. Drimmer e Nygren argumentam que existe uma disjunção fundamental entre o que os LLMs são treinados para fazer — previsões sobre o que provavelmente virá a seguir — e aquilo que os educadores ensinam os estudantes a fazer: identificar detalhes que divergem do padrão, imaginar alternativas e desenvolver a capacidade de “pensar bem, ler bem, ouvir bem e observar bem”. Para Drimmer e Nygren, aprender incide tanto sobre o processo de aprendizagem — partes iguais de experiência vivida, institucional e instinto humano natural — quanto sobre os resultados. “O poder de aprender a escrever não está no produto escrito em si, mas no processo de aprender a escrever. Em última análise, a IA interrompe esse processo e, ao fazê-lo, viola todo o contrato educacional” [86].
A adoção de sistemas de reconhecimento facial nas escolas não apenas anuncia a substituição de professores e orientadores por câmaras com tecnologia de IA, mas também priva os professores da autonomia para decidir como melhorar a segurança nas suas comunidades escolares. Em 2018, o Distrito Escolar da Cidade de Lockport, no norte do estado de Nova York, obteve US$ 4 milhões em financiamento por meio de subsídios estaduais e adquiriu um sistema de tecnologia de reconhecimento facial para utilizar nas suas escolas [87]. Apesar da exigência do programa estadual de subsídios de envolver pais, professores, estudantes e a comunidade escolar, a decisão de comprar o sistema foi tomada numa reunião do conselho escolar com pouca presença no final do verão [88]. O presidente do sindicato dos professores acabaria por afirmar que eles nem foram sequer consultados sobre a decisão [89].
Supostamente adquirido para “prevenir tiroteios escolares”, o sistema de Lockport consistia numa “lista vermelha” de indivíduos proibidos de aceder aos campus escolares, nomeadamente infratores sexuais registados localmente e estudantes suspensos [90]. Em vez de utilizar professores e orientadores para ajudar estudantes em crise, o distrito recorreu a uma tecnologia que não tinha capacidade de prevenir, ou mesmo detetar, um tiroteio escolar [91]. A organização comunitária, a litigância e a advocacia legislativa acabaram por conseguir derrotar o sistema de Lockport — mas, na ausência de regulamentação federal, outros distritos escolares continuaram a adotar sistemas de reconhecimento facial [92].
Além da segurança física, as escolas também recorreram a sistemas de vigilância online, uma prática que começou durante a pandemia. Um sistema em particular, o GoGuardian, foi implementado em grandes distritos escolares nos EUA, incluindo as Escolas Públicas da cidade de Nova York [93]. Sob o pretexto de prevenir o autoagressão dos estudantes, o GoGuardian permitiu que professores e administradores tivessem acesso irrestrito aos dispositivos dos alunos, com a capacidade de visualizar pesquisas no Google, ativar webcams remotamente, realizar filtragem de sites e fechar tabletes [94]. O GoGuardian afirma ter impedido mais de 18.000 tentativas de autoagressão, citando o seu próprio sistema como fonte dessa estatística [95].
Aqueles com experiência prática e direta raramente são incluídos na tomada de decisões sobre onde e em que condições a IA é implementada. Por exemplo, as educadoras Martha Fay Burtis e Jesse Stommel detalham um processo de adoção de tecnologia na sua universidade pública regional. As educadoras foram convidadas a participar em reuniões com um novo fornecedor de tecnologia, a EAB (antiga Education Advisory Board), acreditando que o seu papel seria apresentar esclarecimentos e disponibilizarem as suas competências sobre o uso de tecnologia na sala de aula e além dela. Em vez disso, descobriram que “a decisão sobre a adoção desta plataforma já tinha sido tomada, e havia pouca oportunidade de interagir de forma significativa com os representantes da EAB sobre os desalinhamentos que observámos” [96]. Na maioria dos casos no ensino superior, assim como no ensino fundamental e secundário (K–12), os administradores negoceiam a maior parte dos contratos com fornecedores empresariais de tecnologia educacional sem qualquer envolvimento de professores, estudantes ou pais, e com pouca — se é que há alguma — responsabilidade perante esses principais interessados. Britt Paris e colegas descobriram que, em todo o ensino superior, os administradores universitários adotam tecnologias educacionais empresariais não comprovadas e não testadas gastando com isso enormes quantias de dinheiro, substituindo tecnologias existentes geridas pelos serviços de tecnologia da universidade. Essas tecnologias empresariais eram antes promovidas como tecnologias orientadas por dados e agora incorporam cada vez mais LLMs e IA na sua infraestrutura tecnológica, como no caso do Khanmigo do Canvas, que utiliza o GPT-4 [97].
Fora do campo da educação, a escassez de mão de obra é utilizada como justificação para a utilização da IA. Mas muitas das chamadas situações de “escassez de mão-de- obra” são resultado de más condições de trabalho, remuneração inadequada e falhas institucionais — nenhuma das quais será resolvida pela IA. No caso da enfermagem, por exemplo, os hospitais enfrentam dificuldades para contratar enfermeiros não por causa de uma escassez de profissionais, mas devido à falha dos conselhos e administradores hospitalares em implementar proteções críticas de saúde e segurança. O sindicato National Nurses United declarou claramente que não há falta de profissionais de enfermagem na área. “Em termos simples”, escrevem eles, “há uma falha por parte dos executivos da indústria hospitalar em colocar a prioridade dos enfermeiros e os pacientes de que cuidam acima dos lucros empresariais” [98]. Grandes investimentos em tecnologia projetados para substituir enfermeiros não fazem nada para enfrentar de forma significativa as causas fundamentais dos problemas — como padrões mínimos federais para garantir fortes rácios enfermeiro-paciente ou investimentos em equipamentos de proteção individual (EPI) adequados — nem alteram os motivos subjacentes do lucro.
Ainda assim, mesmo enquanto os trabalhadores hospitalares enfrentam condições de trabalho insustentáveis, os hospitais continuam a investir dinheiro e recursos em tecnologias de IA. Em 2023, o Permanente Medical Group, uma divisão do gigante norte-americano de saúde Kaiser Permanente, assinou um acordo de parceria em larga escala com a Nabla, uma empresa de transcrição por IA, ao mesmo tempo em que a Kaiser enfrentava a maior greve de trabalhadores da saúde da história dos Estados Unidos, motivada pela falta de pessoal, exaustão e baixos salários” [99].
Há paralelos aqui com a crise do mercado de trabalho que afeta a indústria agrícola, amplamente considerada uma das linhas de trabalho mais perigosas devido às altas taxas de lesões, exposição a pesticidas, condições de calor extremo e falta de proteção solar [100]. Não deveria ser nenhuma surpresa que os trabalhadores não estejam ansiosos para ingressar num setor com um legado de racismo [101], longas jornadas de trabalho extenuante e salários criminosamente baixos. Os trabalhadores rurais têm alguns dos menores rendimentos familiares anuais nos Estados Unidos e são categoricamente excluídos da National Labor Relations Act de 1935, que concede aos trabalhadores proteções essenciais como o direito à organização [102]. As regulamentações ao nível estadual para proteger a organização dos trabalhadores rurais também estão a ser desmanteladas pela Suprema Tribuna [103]. Além disso, muitos trabalhadores rurais são afetados pela situação imigratória e temem a deportação caso levantem preocupações sobre as suas condições precárias de trabalho. Ainda assim, empresas emergentes de agrotecnologia estão já a visar as pequenas fazendas com robôs movidos por inteligência artificial com que supostamente resolveriam a escassez de mão-de-obra [104]. A Stout, produtora de um cultivador inteligente usado em campos por todo o país, é divulgada como uma solução para reduzir a dependência da “mão-de-obra manual cara e escassa [105].
O Solucionismo de “Reparação Rápida” Enfraquece Intervenções Estruturais
Na pressa de se colocar em prática soluções rápidas de IA, os seus administradores estão a substituir as intervenções estruturais de longo prazo necessárias para melhorar os resultados educacionais. Isso ficou talvez mais evidente no setor da educação durante a pandemia de COVID-19, quando distritos escolares correram para adotar softwares de monitorização de computadores defeituosos, cheios de potenciais problemas de privacidade, em vez de atender às necessidades dos estudantes. Como escrevem as educadoras Martha Burtis e Jesse Stommel: “Francamente, é um insulto quando as instituições atiram dinheiro em empresas de tecnologia educacional enquanto tantos dos seus estudantes mais marginalizados estão a debater-se com enormes dificuldades, docentes e funcionários foram colocados em licença não remunerada, o financiamento público foi dizimado e o trabalho de ensino tornou-se completamente precário” [106]. A Associação Americana de Professores Universitários, o sindicato dos professores, está a desenvolver uma estratégia de trabalho para os trabalhadores do ensino superior explicando como é que a IA está a afetar os seus locais de trabalho [107].
“No setor educacional, o salto para a implementação de soluções tecnológicas serve para desviar recursos e a atenção dos tipos de investimentos que são mais significativos para os estudantes, como turmas menores e boas instalações. Ao mesmo tempo, isso funciona para alimentar as condições que justificam ainda mais o desmantelamento da educação pública, em nome dos chamados “professores de IA” [108].
O mesmo pode ser dito sobre o sistema jurídico, onde o financiamento é desviado de medidas significativas para oferecer serviços jurídicos acessíveis e a preços razoáveis e direcionado ao desenvolvimento de ferramentas de IA projetadas para “piratear” a advocacia [109]. Andy J. Semotiuk escreve sobre como a dependência de advogados de imigração em ferramentas de IA, sem a devida verificação, “introduz uma vulnerabilidade perigosa, potencialmente expondo imigrantes ao risco de aconselhamento jurídico incorreto, resultados injustos e exploração” [110]. Esses efeitos não são apenas individuais. “As consequências de tal negligência ou má conduta podem estender-se muito além de casos isolados”, continua Semotiuk, “impactando comunidades inteiras e perpetuando injustiças sistémicas se a inexatidão digital distorcer o domínio jurídico.”
|
Fracasso do Modelo Sepse da Epic: Um Estudo de Caso em Tecnosolucionismo Em 2017, a Epic, a principal empresa de tecnologia para registos médicos eletrónicos, lançou uma ferramenta de IA projetada para prever sepsis, uma condição fatal que se desenvolve em resposta a uma infeção. O algoritmo foi criado para identificar quais os pacientes que estavam em risco de desenvolver sepsis, permitindo que profissionais de saúde agissem rapidamente para prevenir a sua ocorrência. A Epic divulgou que o seu algoritmo era preciso em 80% dos casos. Sem verificar essa afirmação — e sem qualquer supervisão ou aprovação regulatória — centenas de hospitais implementaram o algoritmo [111]. (O modelo foi incluído como parte do programa de incentivo “honor roll” da Epic, que concede centenas de milhares de dólares a hospitais que adotam a tecnologia da empresa.) [112] Ainda assim, quando investigadores da Universidade de Michigan avaliaram o modelo da Epic no sistema de saúde de Michigan anos depois, descobriram que o modelo era preciso apenas em 63% dos casos. O modelo também rotineiramente gerava falsos alarmes, desviando a atenção dos médicos de pacientes com outras condições médicas de alto risco [113]. A Universidade de Washington relatou taxas de precisão semelhantes [114]. A Epic contestou a pesquisa e os seus resultados [115]. Mas, após longas investigações da STAT, uma importante publicação médica, sobre os modelos da Epic — nomeadamente a falta de transparência da Epic em relação ao modelo — a Epic relançou o seu modelo, reformulando as variáveis e definições de dados do modelo e fornecendo orientações longas e atualizadas sobre a sua implementação [116].
|
Notas
- A jornalista e investigadora Meredith Broussard reformulou o tecnossolucionismo como tecnocauvinismo, ou a crença equivocada de que as soluções tecnológicas são superiores a outros meios de resolver problemas. Ver Broussard, Artificial Unintelligence(MIT Press, 2019). Back
- Christopher Newfield, 2016. The Great Mistake: How We Wrecked Public Universities and How We Can Fix Them(Johns Hopkins University Press, 2016); Howard Besser and Maria Bonn, “Impact of Distance Independent Education,” Journal of the American Society for Information Science47, no. 11 (November 1996): 880–83, https://asistdl.onlinelibrary.wiley.com/doi/10.1002/(SICI)1097-4571(199611)47:11%3C880::AID-ASI14%3E3.0.CO;2-Z; Kelli Bird et al., “Big Data on Campus,” Education Next (blog), July 20, 2021, https://www.educationnext.org/big-data-on-campus-putting-predictive-analytics-to-the-test; Neil Selwyn, Education and Technology: Key Issues and Debates (Continuum International Publishing Group, 2011); Neil Selwyn, Distrusting Educational Technology: Critical Questions for Changing Times (Taylor and Francis, 2013); Britt Paris et al., “Sins of Omission: Critical Informatics Perspectives on Higher Education Learning Analytics,” Journal for the Association for Information Science and Technology 59, no. 1 (October 2022): 479–485, https://doi.org/10.1002/asi.24575. Back
- Tressie McMillan Cottom, “The Tech Fantasy That Powers A.I. Is Running on Fumes,” New York Times, March 29, 2025, https://www.nytimes.com/2025/03/29/opinion/ai-tech-innovation.html.Back
- OpenAI, “Introducing ChatGPT Edu,” May 30, 2024, https://openai.com/index/introducing-chatgpt-edu. Back
- Dan Fitzpatrick, “ChatGPT to Be Given to All Estonian High School Students,” Forbes, February 26, 2025, https://www.forbes.com/sites/danfitzpatrick/2025/02/26/chatgpt-to-be-given-to-all-estonian-high-school-students. Back
- “Executive Order 14277 of April 23, 2025, Advancing Artificial Intelligence Education for American Youth,” Code of Federal Regulations, title 90 (2025): 17519 https://www.federalregister.gov/documents/2025/04/28/2025-07368/advancing-artificial-intelligence-education-for-american-youth. Back
- California State University, “CSU Announces Landmark Initiative to Become Nation’s First and Largest AI-Empowered University System,” press release, February 4, 2025, https://www.calstate.edu/csu-system/news/Pages/CSU-AI-Powered-Initiative.aspx. Back
- Alpha School (website), accessed April 8, 2025, https://alpha.school. Back
- Mark Keierleber, “Whistleblower: LA Schools’ Chatbot Misused Student Data as Tech Co Crumbled,” The 74 Million, July 1, 2024, https://www.the74million.org/article/whistleblower-l-a-schools-chatbot-misused-student-data-as-tech-co-crumbled. Back
- Sonja Drimmer and Christopher J. Nygren, “How We Are Not Using AI in the Classroom, ” The Newsletter of the International Center of Medieval Art, no. 1 (Spring 2025): 25–28, https://static1.squarespace.com/static/55577d2fe4b02de6a6ea49cd/t/67dfeb8d9ff3a5472a6d719d/1742728078061/Drimmer_Nygren_Not_Using_AI.pdf. Back
- Ibid. Back
- Stefanie Coyle and Rashida Richardson, “Bottom-Up Biometric Regulation: A Community’s Response to Using Face Surveillance in Schools,” in Amba Kak, ed., Regulating Biometrics: Global Approaches and Urgent Questions, AI Now Institute, September 2020, https://ainowinstitute.org/wp-content/uploads/2023/09/regulatingbiometrics_Bottom-Up-Biometric-Regulation.pdf. Back
- Carta de Stefanie Coyle ao NYSED Commissioner MaryEllen Elia, September 26, 2018. Back
- Connor Hoffman, “Citizens Petition LCSD to Postpone Security Project,” Lockport Journal, March 20, 2018, https://www.lockportjournal.com/news/local_news/citizens-petition-lcsd-to-postpone-security-project/article_e8d547e1-0e3a-5a2e-81c3-5879422548c2.html. Back
- Davey Alba, “Facial Recognition Moves Into a New Front: Schools”, New York Times, February 6, 2020, https://www.nytimes.com/2020/02/06/business/facial-recognition-schools.html. Back
- O Sistema de deteção de armas de Lockport identificou erradamente cabos de vassoura com armas tão frequentemente que teve de ser desativado. Ver Todd Feathers, “Facial Recognition Company Lied to School District About Its Racist Tech,” Vice, December 1, 2020, https://www.vice.com/en/article/fac-recognition-company-lied-to-school-district-about-its-racist-tech. Back
- Carolyn Thompson, “New York Bans Facial Recognition in Schools After Report Finds Risks Outweigh Potential Benefits,” Associated Press, September 27, 2023, https://apnews.com/article/facial-recognition-banned-new-york-schools-ddd35e004254d316beabf70453b1a6a2. Back
- Simon McCormack and Stefanie Coyle, “This Software Could Be Spying on NYC Students,” NYCLU Commentary, https://www.nyclu.org/commentary/software-could-be-spying-nyc-students. Back
- Nader Issa, “CPS Teachers Could Look Inside Students’ Homes — Without Their Knowledge — Before Fix,” Chicago Sun Times, October 5, 2020, https://chicago.suntimes.com/education/2020/10/5/21497946/cps-public-schools-go-guardian-technology-privacy-remote-learning. Back
- “Since 2020, Beacon has prevented an estimated 18,623 students from physical harm.” GoGuardian (website), accessed May 17, 2025, https://www.goguardian.com/#footnotes. Back
- Jesse Stommel and Martha Burtis, “Bad Data Are Not Better than No Data,” AAUP, The Higher Ed Data Juggernaut, Winter 2024, https://www.aaup.org/article/bad-data-are-not-better-no-data. Back
- Ver Britt Paris et al., “Sins of Omission”; Catherine McGowan et al., “Educational Technology and the Entrenchment of ‘Business as Usual’,” American Association of University Professors (AAUP), Academe Magazine, www.aaup.org/article/educational-technology-and-entrenchment-%E2%80%9Cbusiness-usual%E2%80%9D; and Britt Paris et al., “Platforms Like Canvas Play Fast and Loose With Students’ Data,” Nation, April 22, 2021, https://www.thenation.com/article/society/canvas-surveillance. Back
- National Nurses United, to Interested Parties, March 30, 2023, https://www.nationalnursesunited.org/sites/default/files/nnu/documents/Reporter_Memo_Hospital_Staffing_Crisis.pdf. Back
- Ingrid Lunden, “As Its Workers Strike, Kaiser Permanente Strikes a Deal for Physicians to Use an AI Copilot from Nabla,” TechCrunch, October 5, 2023, https://techcrunch.com/2023/10/05/as-its-workers-strike-over-burnout-and-low-wages-kaiser-permanente-strikes-a-deal-to-use-an-ai-copilot-from-nabla. Back
- National Farm Worker Ministry, “Issues Affecting Farm Workers,” https://nfwm.org/farm-workers/farm-worker-issues. Back
- Juan F. Perea, “The Echoes of Slavery: Recognizing the Racist Origins of the Agricultural and Domestic Worker Exclusion from the National Labor Relations Act,”Ohio State Law Journal72, no. 1 (2011): 95–138, http://doi.org/10.2139/ssrn.1646496. Back
- Ver Perea, “The Echoes of Slavery,” 96; and National Farm Worker Ministry, “Issues Affecting Farm Workers,” 2022, https://nfwm.org/wp-content/uploads/2022/12/Farm-Worker-Issues-Two-Pager-.pdf. Back
- Cedar Point Nursery, et al. v. Hassid, 594 U.S. 139 (2021). Back
- Shanelle Kaul, “How AI Powered Robots Are Helping Small Farms Fight Labor Shortages,” CBS News, March 28, 2024, https://www.cbsnews.com/video/how-ai-powered-robots-are-helping-small-farms-fight-labor-shortages. Back
- The WG Center for Innovation & Technology, Western Growers Case Study, November 2024, https://wga.s3.us-west-1.amazonaws.com/cit/2024/cit_case-study-stout.pdf. Back
- Jesse Stommel and Martha Burtis, “Counter-Friction to Stop the Machine: The Endgame for Instructional Design,” Hybrid Pedagogy, April 27, 2021, https://hybridpedagogy.org/the-endgame-for-instructional-design. Back
- AI Infiltration into Higher Education: AAUP Survey Findings and Strategies. American Association of University Professors Ad hoc Committee on AI and the Profession. link forthcoming. Back
- Greg Toppo, “Was Los Angeles Schools’ $6 Million AI Venture a Disaster Waiting to Happen?” The 74 Million, July 9, 2024, https://www.the74million.org/article/was-los-angeles-schools-6-million-ai-venture-a-disaster-waiting-to-happen. Back
- Nora Freeman Engstrom and David Freeman Engstrom, “The Making of the A2J Crisis,” Stanford Law Review Online75, no. 146 (May 2024), https://ssrn.com/abstract=4817329. Back
- Andy J. Semotiuk, “How AI Is Impacting Immigration Cases and What to Expect,” Forbes, March 23, 2024, https://www.forbes.com/sites/andyjsemotiuk/2024/03/23/how-ai-is-impacting-immigration-cases-and-what-to-expect. Back
- Casey Ross, “A Popular Algorithm to Predict Sepsis Misses Most Cases and Sends Frequent False Alarms, Study Finds,” Stat, June 21, 2021, https://www.statnews.com/2021/06/21/epic-sepsis-prediction-tool. Back
- Casey Ross, “Epic’s AI Algorithms, Shielded from Scrutiny by a Corporate Firewall, Are Delivering Inaccurate Information on Seriously Ill Patients,” Stat, July 26, 2021, https://www.statnews.com/2021/07/26/epic-hospital-algorithms-sepsis-investigation. Back
- Andrew Wong et al., “External Validation of a Widely Implemented Proprietary Sepsis Prediction Model in Hospitalized Patients,” JAMA Internal Medicine 181, no. 8 (2021): 1065–1070, https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2781307. Back
- Patrick G. Lyons et al., “How Useful Is the Epic Sepsis Prediction Model for Predicting Sepsis?” American Journal of Respiratory and Critical Care Medicine(May 2021), https://doi.org/10.1164/ajrccm-conference.2021.203.1_MeetingAbstracts.A1580. Back
- Ross, “Epic’s AI Algorithms, Shielded From Scrutiny by a Corporate Firewall, Are Delivering Inaccurate Information on Seriously Ill Patients.”/ Back
- Ibid. Back
As autoras:
Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.
Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.
Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.



